Muoversi 2 2021
31

L’INTELLIGENZA ARTIFICIALE È VERAMENTE PIÙ INTELLIGENTE DELL’UOMO?

L’INTELLIGENZA ARTIFICIALE È VERAMENTE PIÙ INTELLIGENTE DELL’UOMO?

L’intelligenza artificiale è certamente tra le innovazioni più decisive per il futuro, per la quotidianità delle persone come per i processi industriali. Se ne parla tanto, ma spesso in un modo impreciso, che lascia spazio a credenze errate, paure e falsi miti.

L’intelligenza artificiale sta disegnando molti aspetti del presente e avrà sempre più peso nella quotidianità del futuro, con un mercato che arriverà a valere oltre 500 miliardi su scala globale entro il 2024 (studio IdC).

In uno scenario di impiego sempre più largo e pervasivo, sorgono frequenti dilemmi etici che si nascondono dietro le aspettative che si sono generate. Forse parlare di miti non è la parola giusta, ma di aspettative eccessive questo sì. Per uno sguardo di analisi approfondita si veda, ad esempio, il volume “Intelligenza Artificiale Cos’è davvero, come funziona, che effetti avrà”, a cura di Stefano Quintarelli, da poco pubblicato da Bollati Boringhieri. Un primo mito guarda proprio l’AI come disciplina ed il suo essere un riferimento all’intelligenza. In realtà, non c’è un forte rapporto funzionale o imitativo rispetto al cervello umano, ma il termine è usato per rimandare metaforicamente alla capacità di gestire, accrescere conoscenza, risolvere problemi, ruoli tipicamente associati agli umani. Ai computer si può certamente attribuire la capacità di eseguire operazioni in modo enormemente più veloce ed efficiente, ma anche settoriale e limitato ad obiettivi e campi specifici. Non è particolarmente corretto e nemmeno interessante dibattere sul se e come l’intelligenza artificiale riesca a fare qualsiasi cosa meglio di noi.

È invece interessante capire perché  l’AI è diventata così affascinante. Molto è legato alla abilità di apprendere in modo automatico. I sistemi attuali non sono strettamente “programmati”, ma apprendono dai dati, potremmo dire “apprendono da esempi annotati” con un processo che richiede grosse potenze di calcolo perché è ripetuto tantissime volte. Immaginate una macchina a cui vengono  mostrate  decine di migliaia di foto di gatti e altri animali che sono “annotati” con la risposta giusta “questo è un gatto”; dopo un grosso lavoro in questa direzione la vostra “intelligenza artificiale” vede un gatto arrivare e … lo riconosce.

Questo processo, che può apparire banale, è abilitato da due fattori: (a) l’esistenza del web che mette a disposizione esempi in quantità (b) le potenze di calcolo attuali. Gli algoritmi di apprendimento automatico per fare cose come “riconoscere un gatto” esistono da svariati anni, ma il progresso tecnologico ha reso possibile affrontare problemi del mondo reale molto più rilevanti (pensiamo, ad esempio, alla guida autonoma). Poi torniamo alla nostra domanda iniziale “è questa intelligenza umana?”, sicuramente no. Pensate a come un bambino apprende e potete intuire che non gli servono quantità immani di immagini per riconoscere un gatto.

Passiamo ad un secondo mito, legato alla infallibilità delle “intelligenze artificiali”. È stato evidenziato il ruolo fondamentale dei dati annotati nell’apprendimento automatico (il machine learning di cui si parla molto). Cosa succede se il processo di selezione e annotazione dei dati non è fatto bene o contiene dei “bias”? Il programma rifletterà questi pregiudizi e potrà avere comportamenti persino socialmente discutibili. Ecco il problema del bias è molto sentito e studiato ed è ancora da risolvere in modo robusto.

Va poi rilevato che è un po’ cambiato anche il ruolo del “programmatore”. Non è più qualcuno che scrive con un linguaggio speciale i passi elementari che la macchina eseguirà, ma qualcuno che agisce “scegliendo i dati” per addestrare la macchina su dei comportamenti desiderati. Da qui il termine “data scientist” che incontriamo sempre più spesso nelle richieste di specialisti di intelligenza artificiale.

Vediamo un ultimo mito: la neutralità dell’AI. In realtà, questo è un problema con cui ci si scontra da tempo, da quando l’automazione informatica si è diffusa capillarmente. A tutti è capitato sentirsi dire “non posso farci niente, lo ha detto l’algoritmo”. Ora c’è solo una dizione enfaticamente più forte “lo ha detto l’intelligenza artificiale”, ma sottintende lo stesso fenomeno cioè la fuga dalla responsabilità istintivo in molti umani.

In realtà, stiamo parlando del fatto che quando la tecnologia evolve diventando ulteriormente potente, cresce di pari passo la responsabilità degli umani su come la si usa e per quali scopi. Da qui la crescente rilevanza dei problemi etici legati all’intelligenza artificiale che vede la convergenza di concetti di morale, responsabilità civile e capacità ingegneristica di inglobare dei principi nelle macchine.

Insomma, abbiamo ancora un grande lavoro davanti a noi.